AI资讯新闻榜单内容搜索- DeepSeek

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索:  DeepSeek
VDC+VBench双榜第一!强化学习打磨的国产视频大模型,超越Sora、Pika

VDC+VBench双榜第一!强化学习打磨的国产视频大模型,超越Sora、Pika

VDC+VBench双榜第一!强化学习打磨的国产视频大模型,超越Sora、Pika

随着 Deepseek 等强推理模型的成功,强化学习在大语言模型训练中越来越重要,但在视频生成领域缺少探索。复旦大学等机构将强化学习引入到视频生成领域,经过强化学习优化的视频生成模型,生成效果更加自然流畅,更加合理。并且分别在 VDC(Video Detailed Captioning)[1] 和 VBench [2] 两大国际权威榜单中斩获第一。

来自主题: AI技术研报
8209 点击    2025-05-06 15:07
AI.com顶级域名指向变更,DeepSeek被“解绑出局”,神秘AI新主浮出水面

AI.com顶级域名指向变更,DeepSeek被“解绑出局”,神秘AI新主浮出水面

AI.com顶级域名指向变更,DeepSeek被“解绑出局”,神秘AI新主浮出水面

新芒xAI今天注意到,备受关注的全球顶级域名 AI.com 跳转目标近日发生变更。目前访问 AI.com 会跳转至一个全新的、充满神秘感的网站。此前该域名曾指向人工智能初创公司 DeepSeek 的相关页面,但根据最新观察,AI.com 现已解绑 DeepSeek。

来自主题: AI资讯
7080 点击    2025-04-24 13:37
全国产算力!一手实测科大讯飞推理模型星火X1,与R1不相上下?

全国产算力!一手实测科大讯飞推理模型星火X1,与R1不相上下?

全国产算力!一手实测科大讯飞推理模型星火X1,与R1不相上下?

就在昨天,深耕语音、认知智能几十年的科大讯飞,发布了全新升级的讯飞星火推理模型 X1。不仅效果上比肩 DeepSeek-R1,而且我注意到一条官方发布的信息——基于全国产算力训练,在模型参数量比业界同类模型小一个数量级的情况下,整体效果能对标 OpenAI o1 和 DeepSeek R1。

来自主题: AI资讯
8099 点击    2025-04-22 08:29
刚刚,微信首个 AI 助手上线!为了抢流量,直接把元宝放微信对话里了!

刚刚,微信首个 AI 助手上线!为了抢流量,直接把元宝放微信对话里了!

刚刚,微信首个 AI 助手上线!为了抢流量,直接把元宝放微信对话里了!

继接入 DeepSeek 后,APPSO 发现名为「元宝」的 AI 助手目前已经正式入驻微信。现在,你可以在微信框搜索「元宝」,亦或者直接扫描二维码图片,将其添加到通讯录,即可与它展开对话。

来自主题: AI资讯
9280 点击    2025-04-16 20:34
过程奖励模型也可以测试时扩展?清华、上海AI Lab 23K数据让1.5B小模型逆袭GPT-4o

过程奖励模型也可以测试时扩展?清华、上海AI Lab 23K数据让1.5B小模型逆袭GPT-4o

过程奖励模型也可以测试时扩展?清华、上海AI Lab 23K数据让1.5B小模型逆袭GPT-4o

随着 OpenAI o1 和 DeepSeek R1 的爆火,大语言模型(LLM)的推理能力增强和测试时扩展(TTS)受到广泛关注。然而,在复杂推理问题中,如何精准评估模型每一步回答的质量,仍然是一个亟待解决的难题。传统的过程奖励模型(PRM)虽能验证推理步骤,但受限于标量评分机制,难以捕捉深层逻辑错误,且其判别式建模方式限制了测试时的拓展能力。

来自主题: AI技术研报
7071 点击    2025-04-14 14:39
为什么李飞飞团队经常cue通义千问?

为什么李飞飞团队经常cue通义千问?

为什么李飞飞团队经常cue通义千问?

Qwen 3还未发布,但已发布的Qwen系列含金量还在上升。2个月前,李飞飞团队基于Qwen2.5-32B-Instruct 模型,以不到50美元的成本训练出新模型 S1-32B,取得了与 OpenAI 的 o1 和 DeepSeek 的 R1 等尖端推理模型数学及编码能力相当的效果。如今,他们的视线再次投向了这个国产模型。

来自主题: AI资讯
6756 点击    2025-04-12 12:02
200美金,人人可手搓QwQ,清华、蚂蚁开源极速RL框架AReaL-boba

200美金,人人可手搓QwQ,清华、蚂蚁开源极速RL框架AReaL-boba

200美金,人人可手搓QwQ,清华、蚂蚁开源极速RL框架AReaL-boba

由于 DeepSeek R1 和 OpenAI o1 等推理模型(LRM,Large Reasoning Model)带来了新的 post-training scaling law,强化学习(RL,Reinforcement Learning)成为了大语言模型能力提升的新引擎。然而,针对大语言模型的大规模强化学习训练门槛一直很高:

来自主题: AI技术研报
9227 点击    2025-03-31 15:07
与真格戴雨森聊 Agent:各行业都会遭遇 “李世石时刻”,Attention is not all you need

与真格戴雨森聊 Agent:各行业都会遭遇 “李世石时刻”,Attention is not all you need

与真格戴雨森聊 Agent:各行业都会遭遇 “李世石时刻”,Attention is not all you need

晚点:过去将近 6 个月,AI 领域最重要的两件事,一是 OpenAI 去年 9 月 o1 发布,另一个是近期 DeepSeek 在发布 R1 后掀起全民狂潮。我们可以从这两个事儿开始聊。你怎么看 o1 和 R1 分别的意义?

来自主题: AI资讯
7813 点击    2025-03-29 00:33
先别骂队友,上交如何让DeepSeek R1在分手厨房再也不糊锅?

先别骂队友,上交如何让DeepSeek R1在分手厨房再也不糊锅?

先别骂队友,上交如何让DeepSeek R1在分手厨房再也不糊锅?

在春节的 DeepSeek 大热后,大模型也更多走进了大家的生活。我们越来越多看到各种模型在静态的做题榜单击败人类,解决各种复杂推理问题。但这些静态的测试与模型在现实中的应用还相去甚远。模型除了能进行对话,还在许多更复杂的场景中以各种各样的方式与人类产生互动。除了对话任务外,如何实现大模型与人的实时同步交互协作越来越重要。

来自主题: AI技术研报
3753 点击    2025-03-18 17:30